图神经网络(GNN)已成为与图形和类似拓扑数据结构有关的无数任务的骨干。尽管已经在与节点和图形分类/回归任务有关的域中建立了许多作品,但它们主要处理单个任务。在图形上的持续学习在很大程度上没有探索,现有的图形持续学习方法仅限于任务的学习方案。本文提出了一个持续学习策略,该策略结合了基于架构和基于内存的方法。结构学习策略是由强化学习驱动的,在该学习中,对控制器网络进行了这种方式,以确定观察到新任务时从基本网络中添加/修剪的最佳节点,从而确保足够的网络能力。参数学习策略的基础是黑暗体验重播方法的概念,以应对灾难性的遗忘问题。我们的方法在任务收入学习和课堂学习设置中都通过几个图的连续学习基准问题进行了数值验证。与最近发表的作品相比,我们的方法在这两种设置中都表明了性能的提高。可以在\ url {https://github.com/codexhammer/gcl}上找到实现代码。
translated by 谷歌翻译
跨域多式分类是一个具有挑战性的问题,要求快速域适应以处理在永无止境和快速变化的环境中的不同但相关的流。尽管现有的多式分类器在目标流中没有标记的样品,但它们仍然会产生昂贵的标签成本,因为它们需要完全标记的源流样品。本文旨在攻击跨域多发行分类问题中极端标签短缺问题的问题,在过程运行之前,仅提供了很少的标记源流样品。我们的解决方案,即从部分地面真理(Leopard)中学习的流流过程,建立在一个灵活的深度聚类网络上,在该网络中,其隐藏的节点,层和簇被添加并在不同的数据分布方面动态删除。同时的特征学习和聚类技术为群集友好的潜在空间提供了同时的特征学习和聚类技术的基础。域的适应策略依赖于对抗域的适应技术,在该技术中,训练特征提取器以欺骗域分类器对源和目标流进行分类。我们的数值研究证明了豹子的功效,在24例中,与突出算法相比,它可以提高性能的改善。豹子的源代码在\ url {https://github.com/wengweng001/leopard.git}中共享。
translated by 谷歌翻译
计算特征向量中心(EC)的现有方法倾向于不足以足够强大,以确定EC在低时间复杂度或对大型网络的不可稳定可扩展的情况下,因此实际上不可靠/计算昂贵。因此,开发一种在低计算时间内可扩展的方法是本质的。因此,我们提出了一种深入学习模型,用于识别具有高特征传染媒介中心的节点。在识别具有监督学习方法的高排名节点时,有一些以前的作品,但在现实世界的情况下,没有标记图,因此监督学习方法的部署成为危险,其使用变得不切实际。因此,我们设计了CUL(与无监督的学习)方法,以无监督的方式学习网络中的相对射周分数。为此,我们开发了一种基于编码器解码器的框架,将节点映射到其各自的估计的EC分数。在不同的合成和现实网络上进行了广泛的实验。我们将CUL与类似于过去的工作的EC估算的基线监督方法进行了比较。观察到,即使在训练上训练数量的训练数据集时,CUL也可以在识别比其监督对方的更高的排名节点时提供相对更好的准确度分数。我们还表明,CUL比EC计算的传统基线方法更快且具有较小的运行时间。代码可在https://github.com/codexhammer/cul上获得。
translated by 谷歌翻译